در جریان خطرات و بحران‌هایی که بشریت را تهدید می‌کنند، معمولاً نسل‌های آینده را فراموش می‌کنیم. نسل‌هایی که امیدواریم پس از ما باقی بمانند. از کلمه "امید" استفاده می‌کنم زیرا بشر با "خطرات وجودی" مواجه است، خطراتی که نسل بشر را منقرض خواهند کرد.

با این‌حال این خطرات هنوز به‌اندازه کافی و مطلوب موردمطالعه قرار نگرفته‌اند. مردم هزاران سال است که از پایان دنیا حرف می‌زنند، اما تعداد کمی تلاش کرده‌اند از وقوع آن جلوگیری کنند. در قرن گذشته، خطرات جدیدی را کشف یا ایجاد کرده‌ایم.


1. جنگ هسته‌ای

بااینکه تا به امروز تنها از دو سلاح هسته‌ای استفاده‌شده (در هیروشیما و ناگازاکی در جنگ جهانی دوم)، اما اشتباه است که جنگ هسته‌ای را غیرممکن در نظر بگیریم.

بحران موشکی کوبا تا یک قدمی جنگ هسته‌ای پیش رفت. متأسفانه بحران موشکی کوبا معروف‌ترین مورد بود. تاریخ بازدارندگی هسته‌ای میان شوروی و آمریکا نیز پر از اشتباهات خطرناک است.

یک جنگ هسته‌ای تمام‌عیار میان دو کشور قدرتمند صدها میلیون نفر را به‌طور مستقیم یا غیرمستقیم می‌کشد. اما این به‌تنهایی یک خطر وجودی نیست. انفجار اتمی در سطح محلی کشنده خواهند بود، اما مشکلاتی که در سطح جهانی ایجاد می‌کند نسبتاً محدود است.

خطر اصلی زمستان هسته‌ای است. دوده‌های حاصل از انفجار وارد استراتوسفر شده و سبب کاهش دما و خشکی زمین می‌شود. این تغییر آب و هوایی کشاورزی را در اکثر نقاط جهان متوقف خواهد کرد. در این صورت میلیاردها نفر خواهند مرد و بازماندگان نیز با عوامل دیگری مانند بیماری جان خواهند سپرد.


2. بیوتروریسمِ جهانی

در طول تاریخ، بیماری‌های همه‌گیر نسبت به جنگ تلفات بیشتری داشته‌اند. به این نوع بیماری‌های "پاندمی" گفته می‌شود. پاندمی های طبیعی تهدید وجودی محسوب نمی‌شوند. اما متأسفانه ما بیماری‌ها را بدتر می‌کنیم. یکی از نمونه‌های معروف واردکردن یک زن اضافی در موش صحرایی بود که آن را خطرناک‌تر کرد، به‌طوری‌که می‌توانست افراد واکسینه شده را نیز آلوده کند. تحقیقات اخیر در آنفولانزای مرغی نشان داد که می‌توان میزان واگیردار بودن بیماری را افزایش داد.

در حال حاضر احتمال اینکه چنین ویروسی از عمد منتشر شود، بسیار کم است. اما بیوتکنولوژی روزبه‌روز ارزان‌تر و بهتر می‌شود و گروه‌های بیشتری موفق به تشدید قدرت بیماری‌ها می‌شوند.

بیشتر تحقیقات درزمینهٔ سلاح‌های بیولوژیک توسط دولت‌هایی صورت گرفته که قصد دارند ابزاری کنترل‌کننده در اختیار داشته باشند. اما گروه‌هایی هم هستند که اهداف دیگری دارند. برای مثال فرقه "اوم شینریکیو" سعی کرد با پخش گاز سارین در متروی توکیو رسیدن آخرالزمان را تسریع کند. برخی فرقه‌ها معتقدند زمین باید از سکونت بشر خالی شود.

با توجه به ارقام و آمار موجود، خطر وقوع بیوتروریسم بسیار پایین به نظر می‌رسد. اما دولت‌ها با این ابزار بیشتر از تروریست‌ها آدم کشته‌اند. در جنگ جهانی دوم بیش از 400 هزار نفر در ژاپن براثر جنگ بیولوژیک کشته شدند.


3. هوش مصنوعی

هوش قدرت بسیار بالایی است. با توانایی حل مسئله و هماهنگی گروهی توانستیم از دیگر موجودات پیشی بگیریم. اکنون بقای آن‌ها به تصمیمات انسان بستگی دارد، نه کاری که خودشان انجام می‌دهند. باهوش بودن مزیتی والا برای انسان و سازمان‌ها است. به همین دلیل تلاش‌های زیادی برای یافتن شیوه‌های بهبود هوش جمعی و فردی می‌شود: از داروهای افزایش شناختی تا نرم‌افزارهای هوش مصنوعی.

مشکل اینجاست که نهادهای هوشمند در دستیابی به اهدافشان بسیار خوب هستند، اما اگر این اهداف به‌درستی تنظیم نشوند، نتایج فاجعه‌آمیزی به بار خواهد آمد. هوش به‌خودی‌خود خوب و اخلاقی رفتار نمی‌کند. در حقیقت، می‌توان ثابت کرد که انواع خاصی از سیستمهای فوق هوشمند از قوانین اخلاقی پیروی نمی‌کنند، حتی اگر درست باشند.

در تلاش برای توضیح مسائل به هوش مصنوعی، به مشکلات عمیق فلسفی می‌رسیم. ارزش‌های انسانی پراکنده و پیچیده هستند و ما در ابراز آن‌ها مهارت نداریم و نمی‌توانیم تمام جوانب آن‌ها را بررسی کنیم.

هوش نرم‌افزاری خیلی سریع از سطح پایین‌تر از انسان، به سطحی فوق‌العاده قدرتمند می‌رسد. گفته می‌شود زمانی که نرم‌افزار آن‌قدر خوب شود که بتواند نرم‌افزارهای بهتری ایجاد کند، احتمالِ "انفجار هوش" وجود خواهد داشت. اگر چنین جهشی رخ دهد، اختلاف زیادی در قدرت بالقوه میان سیستم هوشمند (یا افرادی که به آن دستور می‌دهند) و سایر نقاط جهان به وجود خواهد آمد. اگر اهداف به‌خوبی پایه‌گذاری نشده باشند، باید منتظر فاجعه باشیم.


4. فناوری نانو

فناوری نانو کنترل بر موارد با دقت اتمی و مولکولی است. این به‌خودی‌خود خطرناک نیست، بلکه در اکثر زمینه‌ها خبر خوبی محسوب می‌شود. ما مشکل اینجاست که درست همانند بیوتکنولوژی، افزایش قدرت احتمال سوءاستفاده از آن را افزایش می‌دهد و ممانعت از آن کار آسانی نخواهد بود.

مشکل بزرگ "غول خاکستری" حاصل از نانو ماشین‌ها نیست که همه‌چیز را می‌خورند. برای این هدف طراحی هوشمندانه لازم است. شاید بالاخره یک فرد دیوانه موفق به طراحی آن شود. اما خطرات مخرب دیگری هم وجود دارند که باید نگرانشان باشیم.

بزرگ‌ترین خطر ایدئال بودن تولیدات دقیق اتمی برای ساخت سریع و ارزانِ سلاح است. در جهانی که هر کشوری می‌تواند مقدار زیادی سلاح تولید کند، رقابت در دستیابی به سلاح‌های برتر ممکن است از کنترل خارج شود.

نمی‌توانیم احتمال خطر وجودی را از نانو فناوریِ آینده پیش‌بینی کنیم، اما می‌توان گفت که بسیار مخرب و ناخوشایند خواهد بود، زیرا هرچه بخواهیم را به ما می‌دهد.


5. ناشناخته‌های نامعلوم

آزاردهنده‌ترین احتمال این است که عامل مرگباری در جهان وجود داشته باشد و ما از آن بی‌خبر باشیم. خطر هرچه که باشد، برای اینکه نسل بشر را تهدید کند باید تقریباً اجتناب‌ناپذیر باشد. ما از چنین چیزی اطلاع نداریم، اما ممکن است وجود داشته باشد.


منبع: سایت برترینها